Behavioural Artificial Intelligence
I en nylig publisert artikkel beskriver Tore Pedersen (Oslo Nye Høyskole) og Christian Johansen (Universitetet i Oslo) utfordringen med skjulte algoritmer i Kunstig Intelligens (KI) og forklarer hvordan bias i kunstige intelligente beslutninger kan avdekkes og reduseres ved å bruke psykologiens undersøkelsesmetoder på KIs beslutninger.
Publisert i Forskningsaktuelt av Tore Pedersen Onsdag 18. desember, 2019 - 13:48 | sist oppdatert Onsdag 3. februar, 2021 - 19:42
Hva er kunstig intelligens?
Kunstig intelligens (KI) får stor oppmerksomhet i media så vel som i akademia og næringsliv. KI blir ofte beskrevet enten som den endelige løsningen på alle menneskelige utfordringer eller som den alvorligste trussel mot menneskelig eksistens. I akademia fokuserer informatikere og teknologer på å utvikle intelligente systemer som fungerer, mens filosofier teoretiserer om den virkningen disse systemene kan komme til å få på menneskelig liv
Men i grenseflaten mellom teknologi og filosofi er det ett sentralt aspekt som ennå ikke er artikulert: Hvordan trekker kunstig intelligente systemer sine slutninger? Tore Pedersen og Christian Johansen lanserer i den nylig publiserte artikkelen begrepet Behavioral Artificial Intelligence som en ny agenda og en ny metodologi for å undersøke Artificial Inference og viser hvordan psykologiens undersøkelsesmetoder kan brukes for å studere kunstig intelligente beslutninger, for derigjennom å avdekke hvordan de kunstig intelligente systemene trekker sine slutninger.
Dette innebærer at vi må foreta systematiske empiriske undersøkelser av kunstig intelligent output for å avdekke kunstig intelligente slutninger – altså må vi bruke psykologiens undersøkelsesmetoder på kunstig intelligente systemer, på samme måte som forskningstradisjonene Heuristics & Biases og Behavioral Economics har brukt de samme undersøkelsesmetodene for å avdekke hvordan mennesker trekker sine slutninger.
Bare ved å gjøre dette kan vi bidra til at de kunstig intelligente og skjulte algoritmene blir mer transparente, noe som igjen vil bidra til økt innsikt i og forståelse av de kunstig intelligente beslutningsprosessene, slik at vi kan oppnå økt tillit til at de beslutningene som de kunstig intelligente systemene hjelper oss med å utføre, er de riktige beslutningene for oss mennesker.
Hvis du vil vite mer om dette kan du lese artikkelen Behavioral Artificial Intelligence: An Agenda for Systematic Empirical Studies of Artificial Inference som nylig er publisert i den internasjonale fagfellevurderte journalen AI & Society: Journal of Knowledge, Culture and Communication.